1 research outputs found

    Building trust in AI Systems

    Get PDF
    Artificial Intelligence has integrated as a part of humans’ daily life while at the same time the AI-enabled services and applications are widely considered distrustful. Because the majority of the users are not expert in Machine Learning, not to mention Deep learning, it is important to create trustworthy AI services that understand humans but also explains themselves in an easily understandable way. This type of approach to Artificial Intelligence is called Explainable Hu- man-Centered thinking and it has been discovered as a solution for the distrust problem between human-AI interaction. This research is a qualitative study of User-Experience of different AI-based applications and services that are used in daily life activities such as navigation or checking grammar mistakes. The goal is to find UX elements that affect to user’s trust-perception of the service or application and create a united list of these elements based on previous literature. This list can be used for designing better, explainable, and human-centered AI, but it also fulfills its purpose by gathering together and validating research of the field. The results showed that even in the most strongly trusted services and applications, users can notice problems such as privacy issues or missing explainability. However, many of the commonly used services pro- vide added value for its user and they are relatively better than the other similar services. Based on the results, this study discusses also critically whether implementing HAI is only a UX-de- sign problem but rather a part of sharing knowledge of trustworthy AI and not accepting non- transparent functions and data usage.Tekoäly on integroitunut osaksi ihmisten jokapäiväistää elämää, mutta yleisesti tekoälyperustaisia palveluja ja sovelluksia ei pidetä luotettavina. T ämän lisäksi välillä palveluja tai sovelluksia käyttäessä on mahdotonta todentaa, onko käyttäjä kosketuksissa ihmisen vai koneen kanssa ja mihinkä käyttäjän saama informaatio, kuten ohjeet tai ehdotukset, perustuvat. Koska tämän tyyppinen käyttäjäkokemus lisää epäluottamusta ihmisen ja tietokoneen kanssakäymisessä ja koska suurin osa käyttäjistä ei ole koneoppimisen asiantuntijoita, on tärkeää luoda luotettavia tekoälypalveluja, jotka ymmärtävät ihmisiä ja selittävät omaa toimintaansa helposti ymmärrettävällä tavalla. Tämän tyyppistä lähestymistapaa tekoälyyn kutsutaan selittäväksi ihmiskeskiseksi (explainable human-centered) ajatteluksi ja sitä on pidetty ratkaisuna nimenomaiseen ihmisen ja tekoälyn välisen epäluottamuksen ongelmaan. Tämä kvalitatiivinen tutkimus tarkastelee käyttäjäkokemusta erilaisissa tekoälypohjaisista sovelluksista ja palveluista, joita käytetään jokapäiväisessä elämässä, kuten navigoinnissa tai esimerkiksi kieliasun tai kielioppivirheiden tarkastuksessa. Tavoitteena on löytää UX-elementit, jotka vaikuttavat käyttäjän kokemukseen luottamuksesta käyttäessään palvelua tai sovellusta, ja luoda yhtenäinen luettelo näistä elementeistä aiemman kirjallisuuden perusteella. Tätä luetteloa voidaan käyttää apuna ihmiskeskeisessä tekoälysuunnittelussa, mutta se täyttää tarkoituksensa myös kokoamalla yhteen ja validoimalla alan aiempaa tutkimusta nimenomaan tekoälyperusteisista sovelluksiin liittyen. Kirjallisuuskatsaus esittelee tutkimuksen keskeiset käsitteet, kuten tekoälyn, luottamuksen ja käyttäjäkokemuksen. Lisäksi tässä osiossa kerätään yhteen tärkeimmät edellisissä tutkimuksissa jo identifioidut UX-elementit, jotka vaikuttavat käyttäjän kokemaan luottamukseen muun muassa web-suunnittelussa. Itse tutkimus jakaantuu kolmeen vaiheeseen, jossa ensimmäisenä tekoälyperustaiset sovellukset listataan perustuen alan kirjallisuuden tyyppimääritelmiin sekä käyttäjämäärä arvioiden mukaan. Toisessa vaiheessa, valitut sovellukset ja palvelut listattiin luotetuimmasta epäluotettavimpaan perustuen lyhyeen kyselytutkimukseen. Viimeiseksi syvähaastattelu, perustuen kriittisten tapahtumien tekniikkaan, suoritettiin kyselyyn vastanneille. Avoimilla kysymyksillä kartoitettiin tietoja tapahtumasta, jossa käyttäjä tunsi luottamusta tai epäluottamusta käyttäessään valittua tekoälyperusteistasovellusta tai palvelua. Tulokset analysoitiin teemoittamalla havaitut UX elementit, jotka lisäävät luottamusta tai vähentävät epäluottamusta ja vertaamalla niitä listaan alan edellisistä havainnoista luottamukseen liittyen. Tuloksena saatiin tutkimuksen tavoitteen mukainen lista, jossa on validoitu kirjallisuuden havaintoja, että lisätty uusia havaintoja luottamukseen vaikuttavista UX- elementeistä perustuen tehtyihin käyttäjähaastatteluihin. Kaiken kaikkiaan tämän tutkimuksen tärkeimmät havainnot vahvistivat luettelon tärkeistä UX- elementeistä, jotka on otettava huomioon luotaessa käyttäjien ja tekoälyjärjestelmien välistä luottamusta, mutta samalla vain luotettavien palvelujen suunnittelu ei riitä. Yksi tutkimuksen johtopäätös onkin, että kyselyn osallistujat käyttivät näitä palveluja, vaikka monet olivat huolissaan esimerkiksi omasta yksityisyydestään tai järjestelmän epämääräisestä datakäytöstä. Näin ollen nämä tulokset osoittavat, että käyttäjät hyväksyivät nämä käytännöt, koska sovelluksen tai palvelun käyttäminen toi suhteellista etua muihin palveluihin verrattuna tai merkittävää lisäarvoa käyttäjän jokapäiväiseen elämään. Näiden tulosten perusteella, tässä tutkimuksessa keskustellaan myös kriittisesti siitä, onko HAI:n (Human Centered Artificial intelligence) eli ihmiskeskeisen tekoälyn käyttöönotto vain UX-suunnittelun ongelma, vaan pikemminkin osa koulutusta ja tiedon jakamista luotettavasta tekoälystä jolloin käyttäjät eivät hyväksy läpinäkymättömiä toimintoja tai tietojen väärinkäyttöä, vaan vaativat luotettavia ja avoimia käytäntöjä, jotka selitetään heille erilaisten käyttöliittymäelementtien kautta
    corecore